Kimi K2: Was kann uns Chinas neues „Wunder“ der künstlichen Intelligenz lehren?


Ein chinesisches Unternehmen, gegründet von ehemaligen Mitarbeitern großer amerikanischer Technologiekonzerne, ist der jüngste Durchbruch des Drachens in der künstlichen Intelligenz. Die Geschichte spricht Bände darüber, wie sich Innovation in China inmitten anhaltender geopolitischer Spannungen entwickelt hat. Das Modell Kimi K2 überrascht tatsächlich aus vielen Gründen.
Kimi K2 ist laut Benchmarks derzeit das leistungsstärkste Open-Source-KI-Modell. Das Unternehmen ist Moonshot AI, ein Startup, das 2023 mit finanzieller Unterstützung des Vision Plus-Fonds von Alibaba von Yang Zhilin, Zhou Xinyu und Wu Yuxin gegründet wurde. Zhilin und Yuxin arbeiteten zuvor für Meta und Google, insbesondere im Bereich der künstlichen Intelligenz. Ersterer ist einer der Hauptautoren von Transformer XL und XLNet, zwei Modellen, die Meilensteine in der Entwicklung der KI darstellen.
Jeder kann es unter www.kimi.com (auf den Servern des chinesischen Unternehmens) verwenden oder (auch von Hugging Face) herunterladen, um es auf seinen eigenen Infrastrukturen und für eigene Anpassungen zu verwenden. Genau wie bei Deepseek, dem vorherigen chinesischen KI-Champion.
Kimi K2 kann bis zu zwei Millionen Token als Eingabe verarbeiten. Token sind eine Möglichkeit, Daten für die Entwicklung von KI-Modellen zu messen.
Im direkten Vergleich zu OpenAIs Gpt-4o oder Anthropics Claude 3.5 Sonnet – beide derzeit auf 128.000 Token beschränkt – kann Kimi K2 mehr als 15-mal so viel Text verarbeiten und dabei kontextuelle Kohärenz, Inferenzfähigkeiten und semantische Präzision in einem viel größeren Maßstab aufrechterhalten. Das bedeutet, dass es Dokumente von der Länge einer Enzyklopädie oder der gesamten Rechtsprechung lesen, verstehen und zusammenfassen kann, ohne sie aufteilen oder komprimieren zu müssen.
MoonshotAI weist insbesondere darauf hin, dass es besser codiert als der aktuelle Standard für diese Anwendung, Sonnet, und dass es günstiger in der Anwendung ist. Auf dem Papier: In der Realität fehlen noch immer Tools für eine effektive Integration in andere Systeme, was Kimi K2 weniger praktisch macht.
Laut der Website von Kimi berechnet Kimi nur 15 Cent pro Million eingehender Token und 2,50 Dollar pro Million ausgehender Token.
Der Preis von Claude Opus 4 ist 100-mal höher für die Eingabe (15 US-Dollar pro Million Token) und 30-mal höher für die Ausgabe (75 US-Dollar pro Million Token). Und OpenAI? GPT-4.1 berechnet für jede Million Token 2 US-Dollar für die Eingabe und 8 US-Dollar für die Ausgabe.
Moonshot AI erklärte auf GitHub, dass Entwickler K2 nach Belieben verwenden können. Die einzige Voraussetzung sei, dass „Kimi K2“ auf der Benutzeroberfläche angezeigt werde, wenn ihr kommerzielles Produkt oder ihre Dienstleistung mehr als 100 Millionen aktive Benutzer pro Monat habe oder einen monatlichen Umsatz von mindestens 20 Millionen US-Dollar erwirtschafte.
Laut Moonshot AI ist Kimi K2 nicht einfach ein LLM mit einem breiteren Kontext, sondern ein Modell, das auch architektonisch überarbeitet wurde. Basierend auf einer optimierten Version des Transformer-Frameworks nutzt das System fortschrittliche Aufmerksamkeitsskalierungstechniken mit dynamischer zeitlicher Komprimierung der Gewichte, um die Recheneffizienz aufrechtzuerhalten. Das Modell wurde anhand eines mehrsprachigen Korpus von über 50 Billionen Token trainiert, wobei eine proprietäre Pipeline mit Datenbereinigung und erweiterter Deduplizierung zum Einsatz kam.
In puncto Leistung zeigen die vom Moonshot-Team bereitgestellten Benchmarks konkurrenzfähige Ergebnisse. Kimi K2 erreichte einen Wert von 88,1 bei MMLU (Massive Multitask Language Understanding), was mit GPT-4 und Claude 3 Opus übereinstimmt, und einen Wert von 76,5 bei HumanEval, einem Test, der die Fähigkeit misst, funktionierenden Code zu generieren. Besonders bemerkenswert ist die Leistung bei LongBench, einer Testsuite zur Bewertung der Kohärenzfähigkeit von Modellen bei langen Texten: Kimi K2 erreichte durchschnittlich 83,2 % und übertraf damit Claude 3.5 Sonnet (76 %) und Gemini 1.5 Pro (78 %).
Der Bereitstellungsansatz ist ebenso strategisch. Kimi K2 ist für den Betrieb im vollständigen Cloud-Modus konzipiert, Moonshot testet jedoch bereits komprimierte Versionen für On-Device- oder Edge-Computing. Der geschätzte Stromverbrauch liegt bei gleicher Anzahl verarbeiteter Token um 40 % unter dem amerikanischer Modelle. Dies eröffnet die Möglichkeit der Integration in Umgebungen mit geringer Latenz wie Mobilgeräten, Robotern und autonomen Fahrzeugen.
Hinter der technischen Präsentation verbirgt sich eine viel tiefer gehende industrielle Agenda.
Nachdem sich chinesische Modelle im Vergleich zu westlichen Modellen jahrelang als nicht wettbewerbsfähig erwiesen hatten, ist Peking nun bereit, auf Augenhöhe zu spielen. Kimi K2 sendet eine eindeutige Botschaft: China verfügt nun über die Ausbildungskapazitäten, das Humankapital, das technische Know-how und die Softwareplattformen, um im Bereich der fortgeschrittenen generativen KI wettbewerbsfähig zu sein.
Das Modell ist Teil eines schnell wachsenden Ökosystems. Im ersten Halbjahr 2025 überstiegen die chinesischen Privatinvestitionen in den Sektor der generativen KI 15 Milliarden US-Dollar, wobei sich mindestens elf multimodale Modelle in fortgeschrittenen Entwicklungsstadien befinden.
Chinas einzige Achillesferse sind derzeit seine Chips. Insbesondere die effizienten und leistungsstarken Chips, die für die Inferenz verwendet werden. Das heißt, diejenigen, die verwendet werden, um Modelle auszuführen und sie Nutzern weltweit in der Cloud anzubieten. Das Ergebnis ist, dass Deepseek und Kimi K2 in den „Original“-Versionen, die von den Servern der Gründer angeboten werden, langsamer sind als Chatgpt. Das zeigen auch unsere eigenen Tests. Aber selbst Moonshot AI auf X hat es zugegeben.
Der eingeschränkte Zugang zu Chips erklärt auch ein weiteres Merkmal der chinesischen KI-Industrie, das Außenstehenden Rätsel aufgibt: ihr Engagement für Open-Source-Entwicklung. Dies ist nicht nur eine Möglichkeit, die globale Zusammenarbeit von KI-Ingenieuren und -Forschern zu fördern.
DeepSeek v3 und Kimi K2 sind beide über Drittanbieter-Hosting-Dienste wie das New Yorker Unternehmen Hugging Face erhältlich; sie können heruntergeladen und auf der Hardware der Nutzer ausgeführt werden. Obwohl das Unternehmen also nicht über die nötige Rechenleistung verfügt, um Kunden direkt zu bedienen, ist Support für seine Modelle anderweitig verfügbar. Open-Source-Versionen ermöglichen zudem die Umgehung von US-Zöllen auf Hardware: Während DeepSeek Nvidia-Chips nicht ohne Weiteres kaufen kann, ist dies für Hugging Face möglich. Dies könnte sich nun ändern, da Präsident Trump Nvidia grünes Licht für den Verkauf seines am besten geeigneten Inferenzchips, des H20, an China gegeben hat.
Dank seiner Offenheit könnte sich Kimi K2 nicht nur als technischer Fortschritt erweisen, sondern auch als Soft-Power-Potenzial für die chinesische Regierung. In nicht-westlichen Kontexten – von Zentralasien bis zum Nahen Osten – präsentiert sich das Modell als lokale, kostengünstige und skalierbare Alternative zu OpenAI- oder Google-Lösungen, und das in einer Zeit, in der digitale Geopolitik zunehmend mit technologischer Souveränität verknüpft ist.
Für Europa wirft diese Beschleunigung dringende Fragen auf. Zwar wurden Regulierungen – wie beispielsweise der KI-Act – rasch umgesetzt, doch fehlt es noch immer an einer industriellen Initiative, die Modelle im gleichen Umfang produzieren könnte. Der französische Ansatz mit Mistral oder der deutsche mit Aleph Alpha reichen nicht aus, um die Lücke zu den derzeit dominierenden Unternehmen in puncto Rechenleistung und Datenverfügbarkeit zu schließen.
Nachrichten und Einblicke in politische, wirtschaftliche und finanzielle Ereignisse.
Melden Sie sich anilsole24ore